HBM – co to jest? Czy interfejs HBM zastąpi DDR?
Spis treści:
Od wielu lat pamięć RAM w kartach graficznych jest w jednym ze standardów GDDR SDRAM. Najczęściej są to interfejsy GDDR5 lub GDDR6. Według AMD, czyli prawdziwego technologicznego giganta, który odpowiada m.in. za karty graficzne Radeon, ten interfejs nie jest przyszłością. Dużo lepszym rozwiązaniem ma być interfejs HBM.
Polecane karty graficzne
Co to jest HBM?
HBM to skrót od słów High Bandwidth Memory. Nazwę można więc przetłumaczyć jako „pamięć o wysokiej przepustowości”. Jest to interfejs pamięci, który został przyjęty jako standard branżowy około dekady temu. Wtedy JEDEC, czyli Joint Electron Devices Engineering Council oficjalnie przyjęło HBM. Trzy lata później zaakceptowano już drugą generację, czyli HBM2.
Prace nad High Bandwidth Memory trwają jednak znacznie dłużej. AMD rozpoczęło je jeszcze w 2008 roku, gdy coraz wyższe zużycie energii przez układy graficzne zaczęło być problematyczne. W tym celu nawiązano współpracę z innymi przedsiębiorstwami z branży elektronicznej. Partnerem pracującym w branży pamięci stała się firma SK hynix, w dostarczaniu interposerów pomogło tajwańskie UMC, a ostatnim partnerem stały się firmy Amkor Technology i ASE.
Swoje prace nad HBM prowadzi także Samsung. Południowokoreańska zaprezentowała swoją propozycję w 2016 roku. Wtedy chciała zdobyć bardziej masowo rynki poprzez oferowanie tańszej wersji pamięci HBM, która będzie jednak mniej wydajna od rozwiązania proponowanego przez AMD.
Generacje HBM
Pamięć HBM doczekała się już kilku kolejnych generacji. Pierwszą zaprezentowano jeszcze w 2013 roku. My jednak skupimy się na następnych odsłonach, które oferują coraz lepsze parametry. Obecnie dostępna jest już trzecia generacja. Zacznijmy jednak od drugiej, czyli HBM2.
HBM2
HBM2 zadebiutowało w 2016 roku, gdy zostało przyjęte przez JEDEC. Przy tworzeniu drugiej generacji spory udział miał Samsung oraz SK Hynix. Druga generacja pamięci HBM umożliwia zastosowanie nawet do ośmiu matryc na jeden stos, a także oferuje znacznie wyższą szybkość transferu pinów, która wynosi aż 2 GT/s, czyli dwukrotnie więcej niż w pierwszej generacji. Oznacza to, że przy dostępie do szerokości 1024 bitów, pamięć HBM2 może osiągnąć przepustowość rzędu 256 GB/s na jeden pakiet. W jednym takim pakiecie znaleźć się może maksymalnie 8 GB.
Pierwotnie wielkość produkowanych pakietów była jednak nieco mniejsza. W 2016 roku Samsung i SK Hynix ogłosiły gotowość do produkcji stosów pamięci HBM o pojemności 4 GB.
Ten typ pamięci miałby być skuteczny w najbardziej wymagających aplikacjach, takich jak te umożliwiające przeniesienie się do wirtualnej rzeczywistości. Pamięć HBM2 możemy spotkać m.in. w kartach graficznych AMD. Mowa tu dokładniej o topowych modelach Radeon RX Vega 56 i RX Vega 64. Wyposażono je w pamięć RAM w technologii HBM2 na szerokości 2048 bitów, co pozwoliło osiągnąć przepustowość rzędu aż 483 GB/s. Dzięki temu są to jedne z najmocniejszych i najbardziej wydajnych kart graficznych przygotowanych kiedykolwiek przez AMD.
HBM2E
Od 2018 roku certyfikację zyskał standard HBM2E, czyli po prostu aktualizacja poprzedniego interfejsu HBM2. Zmiany nie są jednak tak małe. Maksymalna wielkość pakietu wzrosła do 12 matryc, przez co jeden taki pakiet może mieć w sobie nawet 24 GB pamięci RAM HBM2E.
Swoje warianty pamięci HBM2E produkuje między innymi Samsung oraz Sk Hynix. Obie firmy oferują pakiety do 8 matryc o łącznej pojemności 16GB. Pamięć HBM2E, którą oferuje Samsung, ma przepustowość wynoszącą aż 410 GB/s. SK Hynix pod tym względem wypada jeszcze lepiej z przepustowością na poziomie 460 GB/s.
HBM3
Od 2020 roku najnowszy standard interfejsu pamięci VRAM, jakim jest HBM to HBM3. Pierwsze informacje na jego temat zaczęły się pojawiać jeszcze w 2020 roku. JEDEC swoją specyfikację przygotowało na początku 2022 roku. Jeszcze zanim to nastąpiło informacje na temat nowego interfejsu HBM3 zaprezentowała firma SK Hynix. Układ od Koreańczyków ma oferować przepustowość rzędu aż 819 gigabajtów na pakiet z wersjami o wielkości 16 GB i 24 GB.
Oficjalna masowa produkcja tego układu rozpoczęła się w środku 2022 roku, a pierwsze dostawy rozpoczęto w trzecim kwartale tego roku. Firmą, która otrzyma nowe pamięci jest NVIDIA, która ma zastosować je w nowoczesnych kartach graficznych.
HBM2 vs. GDDR6 – co wypada lepiej w grach?
Pamięć HBM2 trafiła już do kilku kart graficznych przeznaczonych do gamingu. Głównie są to układy od AMD, takie jak AMD Radeon RX Vega. Dzięki temu można dokonać porównania pomiędzy interfejsem HBM2 oraz GDDR6, który jest obecnie najczęściej stosowanym przy produkcji układów graficznych na świecie.
Oczywiście nikogo nie zdziwi, że karty z pamięcią VRAM w standardzie HBM2 osiągają w grach lepsze wyniki od tych w standardzie GDDR6, czy tym bardziej w starszych interfejsach GDDR5X oraz GDDR5.
Trzeba jednak przyznać, że różnice pomiędzy kartami z pamięcią HBM, a GDDR6 w grach są naprawdę niewielkie i z reguły dotyczą kilku do kilkunastu klatek na sekundę i to pomimo tego, że w teorii pamięć HBM oferuje nawet kilkukrotnie większą przepustowość. Z czego to jednak wynika?
Producenci gier po prostu tworzą je tak, by jak najlepiej działały z GPU na pamięci GDDR6. Szukają coraz to nowszych dróg, by wycisnąć jak najwięcej z tego interfejsu, w którym wbrew pozorom wciąż jest sporo potencjału. Dlatego wiele nowych gier po prostu nie wymaga aż tak dużej przepustowości, jak ta oferowana przez karty z pamięcią VRAM w standardzie HBM. Dlatego właśnie układy graficzne korzystające z tego rozwiązania nie są o wiele lepsze w grach, szczególnie gdy weźmiemy pod uwagę ogromną różnicę w ich cenie.
Dlatego dla graczy na ten moment interfejs HBM i jego kolejne generacje nie powinny stanowić niczego więcej niż po prostu ciekawostki. Karty z takim układem są jeszcze zbyt drogie i zbyt mocne, by można było skutecznie wykorzystać je w grach. Dlatego na ten moment lepiej szukać dobrych kart z GDDR6.
NVIDIA Hopper GH100 – co wiemy o pierwszym GPU wykorzystującym HBM3?
Pierwszą w historii kartą graficzną, do której trafi pamięć w standardzie HBM3 to NVIDIA Hopper GH100. Ma to być prawdziwy potwór, który zostanie wyposażony w najszybszą w historii pamięć VRAM, właśnie dzięki zastosowaniu pamięci podręcznej w standardzie HBM3 wyprodukowanej przez SK Hynix, o czym wspominaliśmy już wcześniej.
Oficjalnych informacji na temat karty NVIDIA Hopper GH100 jest naprawdę niewiele. Plotki mówią jednak o tym, że ta karta ma być wyposażona w nierealne wręcz 120 GB pamięci VRAM na 5120-bitowej szynie danych. Dzięki zastosowaniu pamięci w standardzie HBM3 przepustowość danych ma wynosić nawet 3 terabajty na sekundę. Według jeszcze innych informacji szyna ma być 6144-bitowa, a samej pamięci ma być aż 128 GB.
Jedno jest pewne. NVIDIA Hopper GH100 nie będzie kartą dla zwykłych śmiertelników, którzy chcą odpalić najnowsze gry w świetnej jakości. Będzie to układ graficzny do zastosowań specjalistycznych wyceniany na dziesiątki tysięcy złotych. Najprawdopodobniej trafi na przykład do centrów danych, gdzie możliwe będzie wykorzystanie jego możliwości w 100%.
Czy HBM zastąpi pamięć GDDR?
Aby odpowiedzieć dokładnie na to pytanie, trzeba byłoby być jasnowidzem i dysponować magiczną kulą. Jedno jest pewne. W najbliższej przyszłości szanse są na to mizerne. AMD, które jest sporym orędownikiem tej technologii, zastosowało ją tylko w kilku układach GPU i to w tych z najwyższej półki. Na ten moment interfejs HBM jest po prostu zbyt drogi, by używać go zamiast pamięci DRAM, takiej jak GDDR.
Nie można jednak zapominać o tym, jak młodą technologią jest interfejs HBM. Dzięki temu czas zdecydowanie działa na jego korzyść i z każdym kolejnym rokiem jego opłacalność będzie rosła. W przyszłości możliwe, że koszty produkcji pamięci HBM obniżą się na tyle, że jej stosowanie będzie bardzo opłacalne. Zanim to się jednak stanie powinniśmy przyzwyczaić się do tego, że w praktycznie każdym komputerze będzie zamontowany układ graficzny z pamięcią VRAM w standardzie GDDR6.
Znajdziesz w Morele
Procesory - Dyski SSD - Płyty główne - Laptopy gamingowe - Komputery gamingowe
Komentarze (0)